人工智能范文篇1
深度学习卷积神经网络
过去几年里,深度学习卷积神经网络所取得的成就足以使它成为人工智能王冠上最光彩夺目的明珠。基于深度学习卷积神经网络的语音识别系统把语音识别的精度提高到了产品级的精度,从而为人类与计算机及各种智能终端之间提供了一种崭新的、更为便捷的交互方式。将深度学习卷积神经网络应用于图像内容及人脸的识别,科学家们取得了能够与人类视觉系统相媲美的识别精度。战胜韩国棋圣李世石的谷歌围棋软件AlphaGo能够取得如此辉煌的战绩,深度学习卷积神经网络也发挥了关键性的作用。接下来,我们对深度学习卷积神经网络的起源及其原理做一个简单介绍。
脑神经科学领域的大量研究表明,人脑由大约1011个神经细胞及1015个神经突触组成,这些神经细胞及其突触构成一个庞大的生物神经网络。每个神经细胞通过突触与其它神经细胞进行连接与信息传递。当通过突触所接收到的信号强度超过某个阈值时,神经细胞便会进入激活状态,并通过突触向上层神经细胞发送激活信号。人类所有与意识及智能有关的活动,都是通过特定区域神经细胞之间的相互激活与协同工作而实现的。
早于1943年,美国心理学家W.S.McCulloch和数学家W.A.Pitts就在他们的论文中提出了生物神经元的计算模型(简称M-P①模型),为后续人工神经网络的研究奠定了基础。M-P模型的结构如图1(a)所示,它包含n个带有权重的输入,一个输出,一个偏置b和一个激活函数组成。n个输入代表来自下层n个神经突触的信息,每个权重W)代表对应突触的连接强度,激活函数通常采用拥有S-型曲线的sigmoid函数(参见图1(b)),用来模拟神经细胞的激活模式。
早期的人工神经网络大都是基于M-P神经元的全连接网络。如图2所示,此类网络的特点是,属于同一层的神经元之间不存在连接;当前层的某个神经元与上一层的所有神经元都有连接。然而,人们很快发现,这种全连接神经网络在应用于各种识别任务时不但识别精度不高,而且还不容易训练。当神经网络的层数超过4层时,用传统的反向传递算法(BackPropagation)训练已经无法收敛。
1983年,日本学者福岛教授基于Hubel-Wiese的视觉认知模型提出了卷积神经网络计算模型(ConvolutionNeuralNetwork,简称CNN)。早在1962年,Hubel和Wiesel通过对猫视觉皮层细胞的深入研究,提出高级动物视觉神经网络由简单细胞和复杂细胞构成(如图3所示)。神经网络底层的简单细胞的感受野只对应视网膜的某个特定区域,并只对该区域中特定方向的边界线产生反应。复杂细胞通过对具有特定取向的简单细胞进行聚类,拥有较大感受野,并获得具有一定不变性的特征。上层简单细胞对共生概率较高的复杂细胞进行聚类,产生更为复杂的边界特征。通过简单细胞和复杂细胞的逐层交替出现,视觉神经网络实现了提取高度抽象性及不变性图像特征的能力。
卷积神经网络可以看作是实现上述Hubel-Wiesel视觉认知模型的第一个网络计算模型。如图4所示,卷积神经网络是由卷积层(ConvolutionLayer)与降采样层(SamplingLayer)交替出现的多层神经网络,每层由多个将神经元排列成二维平面的子层组成(称为特征图,FeatureMap)。每个卷积层和上层降采样层通常拥有相同数量的特征图。构成卷积层x的每个神经元负责对输入图像(如果x=1)或者x-1降采样层的特征图的特定小区域施行卷积运算,而降采样层y的每个神经元则负责对y-1卷积层的对应特征图的特定小区域进行MaxPooling(只保留该区域神经元的最大输出值)。卷积运算中所使用的卷积核系数都是通过学习训练自动获取的。卷积层中属于同一个特征图的神经元都共享一个卷积核,负责学习和提取同一种图像特征,对应Hubel-Wiesel模型中某种特定取向的简单细胞。卷积层中不同的特征图负责学习和提取不同的图像特征,对应Hubel-Wiesel模型中不同类型的简单细胞。而降采样层y中神经元的MaxPooling操作等同于Hubel-Wiesel模型中复杂细胞对同类型简单细胞的聚类,是对人脑视觉皮层复杂细胞的简化模拟。
上世纪90年代初期,贝尔实验室的YannLeCun等人成功应用卷积神经网络实现了高精度手写数字识别算法,所提出的系列LeNet,都达到商用级识别精度,被当时美国邮政局和许多大银行用来识别信封上的手写邮政编码及支票上面的手写数字。然而,受制于90年代计算机有限的内存和弱小的运算能力,LeNet网络采用了较浅的网络结构,每层使用的特征图数目也很少。尽管它在小规模图像识别问题上取得了较好的效果,但与传统机器学习算法(如SVM,AdaBoost等)相比,优势并不十分明显。此外,由于卷积神经网络拥有很高的自由度,设计出一款性能优异的网络需要灵感并配合丰富的经验积累,是一项极具挑战性的工作。因此卷积神经网络在被提出后的很长一段时间里并未得到足够的重视和广泛的应用。
2012年,加拿大多伦多大学GeoffreyHinton教授的团队提出了一个规模比传统CNN大许多的深度卷积神经网络(简称AlexNet)。该网络拥有5个卷积与降采样层、3个全连接层,每个卷积与降采样层拥有96?384个特征图,网络参数达到6000多万个。利用AlexNet,Hinton团队在国际上最具影响力的图像内容分类比赛(2012ImageNetILSVRC)中取得了压倒性胜利,将1000类图像的Top-5分类错误率降低到15.315%。在这次比赛中,获得第二、三、四名的团队均采用了传统机器学习算法。三个团队的Top-5图像分类错误率分别是26.17%、26.98%和27.06%,相差不到1个百分点,而他们的成绩和第一名相比却低了超过10个百分点,差距十分明显。当前,深度卷积神经网络(DeepCNN)相对传统机器学习算法的优势还在不断扩大,传统学习方法在多个领域已经完全无法与DeepCNN相抗衡。
机器学习算法的基本原理及其本质
在几千年的科学探索与研究中,科学家们提出了许多描述自然界及人类社会中各种事物与现象的数学模型。这些模型主要可以被归纳为以下三大类别。
归纳模型:由少数几个参数(变量)构成,每个变量都具有明确的物理意义。这类模型能够真正揭示被描述对象的本质及规律,许多数学和物理定律都是典型的归纳模型。
预测模型:用一个拥有大量参数的万能函数来拟合用户所提供的训练样本。万能函数的参数一般不具备任何物理意义,模型本身往往只能用来模拟或预测某个特定事物或现象,并不能揭示被描述事物或现象的本质及内在规律。当代的大多数机器学习算法都是构建于预测模型之上的。例如,单隐层全连接神经网络所使用的数学模型是:
上式中,x代表神经网络的输入,代表神经网络的参数集,M是隐层神经元的个数。这个数学模型如同一个橡皮泥,可以通过变换它的参数集被塑造成任何形状。给定一个训练样本集,其中分别代表训练样本i以及人工赋予该样本的标签(标签表示样本的类别或某种属性),通过利用T进行训练,我们就能够得到一个优化的参数集,使神经网络能够很好地拟合训练样本集T。当新的未知样本x出现时,我们就能够利用训练好的神经网络预测出它的标签y。显而易见,神经网络的参数集规模与神经元的数目及输入x的维数成正比,所有参数没有任何物理意义,模型本身也不具备揭示被描述对象的本质及内在规律的能力。
直推模型:没有明确的数学函数,利用所采集的大数据预测特定输入的标签。此类模型认为针对某个事物或现象所采集的大数据就是对该事物或现象的客观描述。大数据的规模越大,对事物或现象的描述就越全面和准确。当新的未知样本x出现时,我们可以在大数据中找到x的K近邻,根据K近邻的标签或属性来决定x的标签或属性。显而易见,由于不需要定义明确的数学模型,与其它模型相比,直推模型最简单直接,但因为依靠大数据来决定未知样本的标签,直推模型往往需要较高的计算量及使用成本。同样,直推模型也不能被用来揭示事物或现象的本质及内在规律。
应当指出,随着互联网用户数量的不断增长以及互联网技术的快速进步,利用互联网获取内容或用户大数据变得越来越简单廉价,利用直推模型来预测某个事物或现象也变得越来越普及。例如,许多互联网搜索引擎利用每个网页的用户点击率来改进搜索网页的排序精度,就是直推模型在互联网内容搜索领域的一个成功应用。
综上所述,机器学习算法的本质就是选择一个万能函数建立预测模型。利用用户提供的训练样本对模型进行训练的目的,就是选择最优的参数集,使模型能够很好地拟合训练样本集的空间分布。通过训练得到的预测模型,实际上把训练样本集的空间分布提取出来并编码到其庞大的参数集中。利用这个训练好的预测模型,我们就能够预测新的未知样本x的标签或属性。当今大多数机器学习算法都是基于这个原理,谷歌公司的AlphaGo也不例外。
针对某个事物或现象所采集的训练样本,是对该事物或现象的直观描述,蕴藏着大量与之相关的先验知识。例如,ImageNetILSVRC国际图像内容分类比赛所提供的训练样本集拥有1000类、总共一百多万张彩色图像。每一类都对应自然界中的一种常见物体,如汽车、飞机、狗、鸟,等等,包含大约1000张从不同场景及不同角度拍摄的该种物体的彩色图像。利用这个训练样本集训练出来的深度卷积神经网络,实际上是将每类物体的共性特征及个体差异等进行信息提取与编码,并记忆到其庞大的参数集中。当新的未知图像出现时,神经网络就能够利用已编码到参数集中的这些先验知识,对输入图像进行准确的识别与分类。
同样,谷歌公司在训练AlphaGo时,收集了20万个职业围棋高手的对局,再利用AlphaGo不同版本间的自我对弈生成了3000多万个对局。3000多万个围棋对局包含了人类在围棋领域所积累的最为丰富和全面的知识与经验。当新的棋局出现时,AlphaGo利用被编码于其庞大参数集中的这些先验知识,预测出胜率最高的一步棋,以及这步棋所产生的最终胜率。由于AlphaGo针对3000多万个对局进行了学习与编码,它对每一步棋的胜负判定甚至比九段棋手还要准,人类棋圣输给AlphaGo也就不足为奇了。
人类智能的本质与特性
对于人脑及其高度复杂的智能,人类至今还所知甚少。关于“智能”这个名词的科学定义,学术文献中就存在着许多个版本。即使是少数几个被深入研究的认知功能(如人脑的视觉认知功能)的工作机理,也还存在着各种各样的假说和争议。在这里,我们列出若干较具代表性、认可度相对较高的关于人脑智能的假说及阐述。
人类智能的本质是什么?这是认知科学的基本任务,也是基础科学面临的四大难题(Simon)中最后、最难解决的一个。每门基础科学都有其特定的基本单元,例如高能物理学的基本粒子,遗传学的基因、计算理论的符号、信息论的比特等。因此,“人类智能的本质是什么”这个问题在某种程度上取决于“什么是认知基本单元”。众所周知,适合描述物质世界的变量并不一定适合描述精神世界。因此,认知基本单元是什么这个问题,不能靠物理的推理或计算的分析来解决,根本上只有通过认知科学的实验来回答。大量实验结果显示,认知基本单元不是计算理论的符号,也不是信息论的比特,而是知觉组织形成的“知觉物体”。例如,实验表明,当人的视觉系统注意一只飞鸟的时候,它所注意的是整只鸟(即一个知觉物体),而不是鸟的某个特性(形状、大小、位置等)。尽管在飞行过程中鸟的各种特征性质在改变,但它是同一个知觉物体的性质始终保持不变。诺奖得主Kahneman认为,知觉物体概念的直觉定义正是在形状等特征性质改变下保持不变的同一性。中科院陈霖院士领导的团队在发展了30多年的拓扑性质知觉理论的基础上,提出大范围首先的知觉物体拓扑学定义:知觉物体的核心含义,即在变换下保持不变的整体同一性,可以被科学准确地定义为大范围拓扑不变性质。应当指出,上述大范围首先知觉物体的概念,与人工智能领域广为认同与采纳的由局部到整体,由特征到物体,由具体到抽象的认知计算模型是完全背道而驰的,因而在人工智能领域并没有得到足够的重视及应用。
大量认知科学领域的实验研究表明,人类智能具有以下几个特性。
人类智能的目标不是准确。人类智能并不追求在精神世界里客观准确地再现物理世界。上帝设计人类智能时,不假思索地直奔“生存”这一终极目标而去:用最合理的代价,获取最大的生存优势。人类大脑的平均能耗大约只有20瓦,相对于庞大的计算机系统来说只是九牛一毛。尽管人脑的重量只有1400克左右,约占人体重量的2.3%,但它的血液供应量却占到了全身的15.20%,耗氧量超过全身的20%,对于人类已经接近其生理可以负担的极限。在这种资源极其有限的条件下,人脑通过以下几种方式实现了最有效的资源调配,由此来保障最有意义的生理和智能活动。
第一,主观能动的选择性。精神世界不是对物理世界的简单映射,而是非常扭曲和失真的。体积相对较小的手指、舌头等重点区域,在感觉运动中枢里却占据大部分的皮层区域。同样,在视觉上只有对应中央视野的视网膜具有很高的空间、颜色分辨率,而更广泛的外周视野只对物体的突然出现或消失,以及物体的运动更敏感。人类视觉处理的通常方式是,外周视野的显著变化会在第一时间被捕获,做出应激反应,然后再把中央视野移动到目标上进行后续的处理。
人类通过知觉组织的选择性注意机制,直接感知输入信号中的大范围不变性质,而忽略大量的局部特征性质。大量视而不见的现象,在实验室研究中表现为注意瞬脱、变化盲视等等。比如,尽管可以清晰地分辨出霓虹灯中的色块颜色、形状各不相同,甚至在空间和时间上都不连续,人脑仍然把这些色块看成是同一个物体,从而产生运动的感觉。研究表明,这种运动错觉本质上不是运动,其生态意义在于对知觉对象进行不变性抽提。另一方面,人脑会主动把忽略的部分补充回来。而通过经验知识,上下文关系等补充回来的信息,难免有错。所谓错觉就是精神世界和物理世界的错位。这些错觉的生态意义在于在有限资源条件下,快速直接地形成稳定的感知。这种机制既是人类天马行空的联想能力和创造力的源泉,同时也是各种精神心理疾患的生物学基础。
第二,模块化的层次结构和分布式表征。当前认知科学越来越依赖于脑成像技术的发展。功能模块化假设认为,大脑是由结构和功能相对独立、专司特定认知功能的多个脑区组成。这些模块组成复杂的层次结构,通过层次间的传递和反馈实现对输入信号的主动调节。大量脑成像的研究实验也支持了这一假设,特别是视觉研究发现了非常详细而复杂的功能模块及其层次结构。另一方面,分布式表征的假说认为,认知功能的神经机制是相对大范围的分布式脑状态,而不是特定脑区的激活与否。当前研究认为,人脑是模块化和分布式表达共存的自能系统。
第三,反应性活动和内生性活动。人脑不是一个简单的刺激—反应系统,大量的内生性活动甚至比反应性活动还多。人脑在所谓的静息状态下的耗氧量与任务状态下相比差别很小。然而几乎所有的经典认知科学研究都是建立在刺激反应实验范式的基础之上。这种实验范式是让实验对象在特定的条件下完成特定的认知任务,收集并分析实验对象的行为或生理反应,通过对实验数据的充分比照,建立人脑某种活动模式或认知机理的假设。内生性活动因其往往只能通过内省的方式进行研究,而被长期排除在认知科学的研究主流之外。随着脑成像技术的发展,功能连接成为分析静息态大脑自发活动的有力工具。特别是默认网络的发现,创立了强调内生性活动的全新脑功能成像研究范式。默认网络被认为涉及警觉状态、自我意识、注意调控以及学习记忆等心理认知过程,已被广泛应用于社会认知、自我、注意、学习、发育、衰老机制的研究,有力推动了各种脑生物指标的完善和脑疾病的治疗,这些疾病包括阿尔兹海默病、帕金森病、抑郁症、精神分裂症和自闭症等等。
因此,整合现有研究中有关分布式表达和内生性活动的最新研究成果,可能会带来对人脑活动模式(人类智能的物质基础)一种全新的理解。
人类智能的本质不是计算。人类智能体现在对外部环境的感知、认知、对所观察事物或现象的抽象、记忆、判断、决策等。然而,这些智能并不是人类所独有。许多高等动物,如狗、猴子、猩猩,也或多或少具有类似的能力。同时,计算并不是人类智能的强项。真正将人类与其它动物区分开来的,是人类的逻辑推理能力、想象力、创造力以及自我意识。人类利用这类能力能够想象并且创造出自然界中不存在的东西,如汽车、飞机、电视、计算机、手机,互联网。这类能力是推动人类社会不断发展与进步的源泉,是生物智能的圣杯。
而对代表生物智能最高水平的上述能力,人类目前还所知甚少,对其机理的研究还处于启蒙阶段。研究表明,这些能力不是依靠计算得来的,而似乎是与联想记忆及人类丰富的精神世界有关。基于脑信号的分析实验发现,人脑的海马回、海马旁回、杏仁核等脑区中存在着大量专司特定联想记忆的神经细胞。例如,上述脑区中存在单个或一小簇神经细胞,会被与美国前总统克林顿相关的所有刺激信号所激活,无论刺激信号是关于克林顿的图片,还是Clinton这个英语单词,还是克林顿本人的语音回放。显然,这些神经细胞并不是被某个模态的特定特征所激活,它们所对应的是克林顿这个抽象概念。此外,脑成像研究表明,围棋专业棋手相对于业余棋手更多的是依赖联想记忆系统,而非逻辑推理来下棋。实际上,围棋界训练棋手的最常用方法就是将高手对局中的关键部分拆解成许多死活题,棋手通过大量死活题的解题训练来提高自己联想记忆的经验和效率。
机器智能与人类智能的优势与劣势
当代的计算机拥有强大的存储与运算能力。伴随着计算技术的不断发展与进步,这些能力的增长似乎还远没有到达尽头。早在1997年,IBM的“深蓝”超级电脑就战胜了国际象棋冠军卡斯帕罗夫。但这次胜利在人工智能领域并没有产生太大的反响,原因在于,“深蓝”几乎纯粹是依靠强大的运算能力遍历所有的可能性,利用“蛮力”取胜的。“深蓝”所遵循的,就是“人工智能即是计算加记忆”这个简单法则。由于围棋的搜索空间比国际象棋大很多,“深蓝”的这种制胜策略针对围棋是行不通的。与“深蓝”相比,AlphaGo的最大进步就是从“计算加记忆”进化到“拟合加记忆”法则。它利用深度卷积神经网络这个万能函数,通过学习来拟合两千多年来人类所积累的全部经验及制胜模式,并将其编码到神经网络的庞大参数集中。对于当前棋局的任何一个可能的落子,训练好的神经网络都能够预测出它的优劣,并通过有限数量的模拟搜索,计算出最终的获胜概率。这样的战略不需要对棋局的所有可能性做遍历搜索,更像人类棋手所使用的策略。然而,由于AlphaGo对每个落子以及最终胜率的预测,是建立在围棋界两千多年来所形成的完整知识库之上的,它的预测比人类最优秀的棋手更准确。与其说李世石输给了机器系统,不如说输给了人类棋艺的集大成者。由此推断,AlphaGo取胜也是情理之中的事。
与机器相比,人类智能的最大优势当属它的逻辑推理能力、想象力、创造力及其高效性。人脑功耗只有20多瓦,处理许多感知及认知任务(如图像识别、人脸识别、语音识别等)的精度与拥有庞大内存、运算速度达到万亿次的超级电脑相比却毫不逊色。尽管机器智能很可能在不远的将来在类竞赛中全面超越人类,但现有的机器学习框架并不能模拟出人类的想象力和创造力。因此,在当前情况下,机器智能全面超越人类智能的预测是不会成为现实的。
人工智能范文篇2
2015年12月,微软亚洲研究院首席研究员刘铁岩博士去蒙特利尔参加了NIPS年会(AnnualConferenceonNeuralInformationProcessingSystems),这是人工智能领域的顶级学术会议。但与会期间,他印象最深的不是同行的专业进展,而是一位科学家告诉台下的与会者,早些年,他的博士生根本找不到工作,今年却被一抢而空。
这也是中国正在发生的故事。从硅谷到北京,人工智能都是热浪滚滚。这个在上世纪50年代和80年代掀起过两次高潮的技术,现在似乎真的到了产业化的临界点。互联网时代的思想家和预言家凯文?凯利宣称,人工智能是下一个20年里颠覆人类社会的技术,它的力量堪比电与互联网。
人工智能(ArtificialIntelligence),缩写为AI。它是研究开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。该领域的研究包括机器人、语音识别、图像识别、自然语言处理和专家系统等。
人工智能快速进入大众视野,源于今年3月谷歌围棋人工智能程序AlphaGo战胜世界冠军李世石。人机围棋对弈只是普及人工智能的一个秀。它的背后是规模千亿级的人工智能产业市场。BBC预测,2023年全球人工智能市场规模将达1190亿元人民币。
目前看,这一数据远比不上2015年中国移动互联网的产业规模。但人工智能的意义不仅于此,人工智能技术的发展,还将带动云服务、大数据分析、移动互联网和物联网产业的升级迭代。它甚至将超越移动互联网,全面改变人类的生活和工作方式。
离人工智能最近的IT互联网公司敏锐嗅到了这一机遇。从2011年开始,包括深度学习算法、计算资源和大数据产业的成熟令人工智能技术实现飞跃,包括微软、IBM、谷歌、Facebook、BAT在内的国内外企业都开始深度布局人工智能,试图把握风口,成为下一个产业变革的巨擘。
已布局人工智能的IT和互联网巨头们,最有资格成为这一轮革命的获益者。但这终究是一个漫长的耐力游戏,除了技术布局,产业布局和战略视野也是决定成败的关键因素,短视者将随时出局。
BAT保守布局
中国的所有行业中,以BAT为代表的互联网行业在人工智能研究和商业化探索方面走得最早,也看得最远。其中,技术起家的百度走在最前端。
2012年10月,百度董事长兼首席执行官李彦宏参加了内部的一个基于深度学习的语音识别产品研究会。当时该产品的主导者余凯回忆,那是李彦宏第一次知道深度学习,他非常吃惊,并给全公司写信,让所有产品经理都要了解人工智能技术的发展。
当年12月,李彦宏开始和余凯讨论成立深度学习研究院的可行性。次年7月,这个研究院成立,李彦宏任院长,余凯为常务副院长。这是中国公司里的第一个人工智能研究院。
李彦宏很快将相关技术投入到搜索的核心业务中。2014年的百度内部统计数据显示,深度学习技术的应用,让百度和竞争对手的Diff(different,内部叫Diff)指标提升了若干倍。
但人工智能的科研,尤其是基础科学研究,是一个冗长寂寞的过程。此后,迫于财务数据和竞争压力,百度的决策者们更加注重眼前的布局和资源。
“到了后期,太长远项目,或是比较创新的项目,百度总部确实不太支持了。百度i站的项目、百度快搜这样的项目没了。”一位不愿具名的前百度人工智能研究岗位人士评价。一位现任百度相关人士对《财经》记者表示,百度前些年确实剔除了不少经过验证没有商业化前景的分支项目,但最近两三年,百度明显加大了在人工智能上的投入,包括无人驾驶汽车等长期项目。
6月8日,在2016百度联盟峰会上,李彦宏将百度无人驾驶汽车称作“一台带轮子的电脑”。他现场播放了百度无人车路测的实况录像,百度无人车已经可以像正常车辆一样加速、并线、超车,他同时表示,三五年之内,无人驾驶一定可以成为现实。
从整体来看,百度仍是BAT三家中首先完成有关人工智能技术体系整合的公司。目前,百度研究院、百度大数据、百度语音和百度图像等技术都已归入人工智能技术体系。李彦宏多次向外界强调,百度未来的发展将严重地依赖人工智能。
IBM研究院一位人工智能专家告诉《财经》记者,百度是被他们列入竞争列表的唯一中国公司。
硅谷尤其关心“百度大脑”的进展。百度大脑是百度在人工智能领域的核心。百度此前的诸多人工智能产品,如无人驾驶、智能搜索等,都是基于百度大脑的能力。
百度高级副总裁、自动驾驶事业部总经理王劲称,百度大脑已具备视、听、说和预测、规划决策以及行动控制的能力。在数据方面,百度有万亿级的网页、移动和行为数据可供分析。在深度学习方面,百度的万亿参数排在世界第一。
2015年,百度的研发投入超过100亿元。占百度2015年总营收663.82亿元的15%。
百度正在计划将百度大脑在金融、汽车、医疗等领域商业化。李彦宏称,人工智能的“井喷式”创新,将推动互联网进入第三幕,并将重构传统产业。比如“人工智能+金融”,可以快速地实现征信升级,实现“秒放”贷款。
阿里巴巴和腾讯的布局则更加克制。或者说,它们更代表中国公司的普遍做法,从业务驱动开始,逐渐加大档位。
阿里从2011年开始布局互联网医疗,投资收购和战略合作的公司数以百计。围绕医院、医保、医药做了大量布局。最新的统计数据显示,全国已经有超过400家大中型医院加入阿里的“未来医院”计划,覆盖全国90%省份。阿里云人工智能首席科学家闵万里博士告诉《财经》记者,阿里在健康医疗领域的布局快慢,取决于阿里在人工智能领域的技术突破。
阿里的设想是,未来,在阿里遍布全国边远山村的医院医疗点里,病患足不出户,只需拍一张CT,通过远程技术来完成专家级的诊疗过程。这种诊疗,依赖的就是基于阿里云的人工智能医疗系统。随着学习数据的不断增加,机器会变得越来越聪明,最终成为一个“永不退休的医学专家”。
多位接受《财经》记者采访的专家评价,阿里这个技术并不复杂,医疗诊断是基于经验的专家型劳动,是机器擅长的经验学习,三年内该技术便可成熟。
闵万里告诉《财经》记者,要实现这个目标,除了技术平台,还需要整个医疗体系的打通,需要政府和社会共同推动设备和资源的开放。一旦打通,聚合在一个人工智能服务平台之上,就将衍生出更多的应用服务场景,从而实现“商业和技术互为驱动”。
阿里是目前中国所有公司里,数据生态最完善、最健全的公司。iPIN创始人兼CEO杨洋认为,阿里的MaxComputer数据通道,是非常健康的数据大动脉,可以将阿里的所有数据资源非常高效地结合在一起。
此外,阿里云也是目前世界上最接近AWS(亚马逊云服务)的云计算平台。数据生态体系是做人工智能的重要基础。因此,在这场有关未来的布局中,阿里云的主导地位清晰。
阿里的人工智能研究分散在其各个业务分支之中,有待整合。闵万里说,阿里希望在算法能力上有所突破,这需要一个集中的技术机构来整合阿里的所有相关技术资源。
腾讯和阿里的情况类似。腾讯在人工智能上的布局,以IM和SNS业务为基础。例如语音识别主要是在微信部门、图片识别主要是在QQ,支付和金融业务方面植入了人脸识别,搜索部门则关注自然语言识别。
其中一些技术已在腾讯内部实现产品化。SNG(社交网络事业群)的优图团队聚焦图象识别领域,推出了黄图识别功能,并为腾讯内部产品如图片优化工具“天天P图”提供技术支持。WXG(微信事业群)则人机互动领域的拓展,也对图像和语音识别进行了原发。WXG推出了智能机器人“小微”,用户可以用自然语言与之沟通,解决此前语音助手智能机械应答的短板。对于未来,工程师希望“小微”成为一种“连接器”――与微信支付串联起来,接入微信公众号以及钱包内的各种生活服务,打造完整的微信内O2O闭环生态体系。
腾讯高级副总裁姚星在接受《财经》记者采访时表示,腾讯越来越重视在人工智能领域的技术开发,这包括两个路径:一是整合腾讯自身的技术资源,形成体系和重点;二是加快对优秀公司的收购和合作步伐。
腾讯参与了多个人工智能项目的早期投资。腾讯投资并购部一直在为公司寻找需要的标的,服务于腾讯的整体战略。腾讯日前与硅谷风投机构FelicisVentures领头了人工智能创业公司Diffbot1000万美元的A轮。这家公司通过人工智能技术,让“机器”抓取网页关键内容,并输出软件可以直接识别的结构化数据。
BAT的人工智能技术研发从第一天开始就是商业需求驱动的,他们从业务入手,收购甚至模仿别人的东西,这种做法避免了漫无目的研究和不必要的失败,但也无法保证在下一轮的人工智能平台大战中胜出。
今年,阿里和腾讯均有组建人工智能研究院的想法。姚星对《财经》记者说,很快,腾讯人工智能研究院就会成立。
国际巨头深入无人区
如果说BAT的人工智能布局处于对标和追赶的状态,那么以IBM、微软、谷歌、Facebook为代表的美国巨头公司已经开始深入科技无人区。Facebook将人工智能视为未来的三大方向之一,在基础科学的研究上不遗余力。
这些公司技术和业务各有所长,面向的用户也不同,但它们的目标一致:把人工智能机器做大、做强、再做没。
IBM和微软可能没有谷歌、Facebook看起来那么酷,但在人工智能领域有深厚的技术底蕴,IBM甚至已经开始用人工智能赚钱。
IBM人工智能研究可以追溯到1997年“深蓝”战胜当时的国际象棋世界冠军卡斯帕罗夫。2011年,代表着IBM在认知计算领域最先进技术的Watson在一个电视节目中一战成名,被认为是人工智能历史上的一个里程碑。
今天可以代表IBM在人工智能领域最高技术水平的,是不断进化中的Watson系统,和已经可以量产的人脑模拟芯片SyNAPSE(超大规模神经突触计算机芯片)。
Watson是一台超级计算机,最初由90台IBM的Power7服务器并行组成。和Google、微软的人工智能相比,它从硬件芯片构架就开始模拟人类神经元,基于IBM的“DeepQA”技术开发。2014年1月初,IBM宣布组建“WatsonGroup”,旨在进一步开发、商用和增强“Watson”及其他认知技术,此外还投入10亿美元用于其他相关项目。
人工智能范文篇3
1、人工智能(ArtificialIntelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新技术科学。
2、人工智能是计算机科学的一个分支,它企图了解智能的实质,可以产出一种新的可以和人类智能相似的方式做出反应的智能机器,该领域的研究主要有机器人、语言识别、图像识别、自然语言处理和专家系统等。
3、自从人工智能诞生以来,理论和技术越来越成熟,应用领域在不断的扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以把人的意识、思维的信息过程的模拟。虽然人工智能不是人的智能,但可以像人那样思考、最终可能超过人的智能。
(来源:文章屋网)
【人工智能(收集3篇) 】相关文章:
逛超市日记精选[15](整理9篇) 2024-06-19
端午节日记精选(整理8篇) 2024-06-19
[精选]三年级日记(整理5篇) 2024-06-18
绿豆观察日记[精选](整理9篇) 2024-06-16
我的日记精选(整理6篇) 2024-06-15
[精选]小学三年级日记(整理3篇) 2024-06-14
[精选]小学生日记(整理9篇) 2024-06-13
银行柜员工作心得(整理9篇) 2024-06-22
人工智能(收集3篇) 2024-06-22
妈妈我爱您作文(整理11篇) 2024-06-22